Math'φsics

Menu
  • Acceuil
  • Maths
  • Physique
    • Maths
    • Physique
  • Décision bayésienne

    Formulaire de report


    Décision bayésienne :
    • on suppose que \({\Bbb P}_{(X,Y)}\ll\mu_X\otimes\mu_Y\) avec \(\mu_X,\mu_Y\) \(\sigma\)-finies
    • on pose \(g_\text{Bayes}:\mathcal X\to\mathcal Y\) (mesurable) tq $$g_\text{Bayes}(x)\in\arg\min_{y\in\mathcal Y}\underbrace{\int_\mathcal Y\rho(y^\prime,y)\,d{\Bbb P}_{Y|X=x}(y^\prime)}_{={\Bbb E}[\rho(y,Y)|X=x]}$$

    $$\Huge\iff$$
    • \(\forall g:\mathcal X\to\mathcal Y\), on a : $$R(g)\geqslant R_\text{Bayes}:=R(g_\text{Bayes})$$(où on a posé \(\displaystyle{\Bbb P}_{Y|X=x}:=f(y|X=x)\mu_y\), où \(\displaystyle f(y|X=x)=\frac{f(x,y)}{Z(x)}\Bbb 1_{Z(x)\gt 0}\) avec \(\displaystyle f:=\frac{d{\Bbb P}_{(X,Y)} }{d(\mu_X\otimes\mu_Y)}\))



    Questions de cours


    On note \(A\) une union de produits cartésiens de parties de \(\mathcal X\) avec un singleton de \(\mathcal Y\).

    Il suffit alors de vérifier que \({\Bbb P}_X\otimes\mu_y=0\implies{\Bbb P}_{(X,Y)}=0\), ce qui s'obtient en majorant la partie en \(\mathcal Y\).


    START
    Ω Basique (+inversé optionnel)
    Recto: Que dire de la condition \({\Bbb P}_{(X,Y)}\ll\mu_X\otimes\mu_Y\) avec \(\mu_X,\mu_Y\) \(\sigma\)-finies lorsque \(\mathcal Y\) est dénombrable ?
    Verso: La condition \({\Bbb P}_{(X,Y)}\ll\mu_X\otimes\mu_Y\) avec \(\mu_X,\mu_Y\) \(\sigma\)-finies est toujours vérifiée.
    Bonus:
    Carte inversée ?: y
    END
    (seulement la deuxième partie de la question)

    On calcule la probabilité du complémentaire en intégrant.

    On applique Fubini et on reconnaît \(Z(x)\), qui est ici égal à \(0\).



    Développer \(R(g)\) en cassant \(d\,{\Bbb P}_{(X,Y)}(x,y)\) par conditionnement.

    La majoration vient de la définition de Bayes en tant qu'\(\arg\min\).



    Exercices


    Le risque (effectif) est une probabilité, donc la fonction de perte est l'indicatrice correspondante.

    Pour calculer la règle de Bayes, on doit chercher un \(\arg\min\).

    Développer l'indicatrice via une règle d'intersections et d'unions disjointes.

    On reconnaît les fonctions \(\rho_+\) et \(\rho_-\), qui nous permettent d'avoir une écriture convenable.

    Calculer le risque en remplaçant \(\sigma\) par \(\pi_*(X,X^\prime)\) et en prenant l'espérance.



    Développer l'indicatrice (via intersections et unions disjointes) en prenant en compte tous les cas possibles.

    Séparer l'espérance par indépendance et retrouver \(\eta\).



    Partir du résultat.
    $${\Bbb E}[p_0(X)\land p_1(X)]=$$

    Développer avec des indicatrices.
    3i: Réécriture des indicatrices via \(\Bbb 1_A(X)\).
    $$={\Bbb E}[p_0(X)\Bbb 1_{X\in C_\text{Bayes} }+p_1(X)\Bbb 1_{X\notin C_\text{Bayes} }]={\Bbb E}[p_{\Bbb 1_{X\notin C_\text{Bayes} }}(X)]$$
    4i: Développer via la définition.

    $$={\Bbb E}[{\Bbb P}(Y\ne\Bbb 1_{ C_\text{Bayes} }(X)|X)]$$
    5i: Passer par l'espérance conditionnelle pour pouvoir virer le conditionnement.

    $$={\Bbb E}[{\Bbb E}[\Bbb 1_{Y\ne\Bbb 1_{ C_\text{Bayes} }(X) }|X]]={\Bbb E}[\Bbb 1_{Y\ne\Bbb 1_{ C_\text{Bayes} }(X) }]={\Bbb P}(Y\ne\Bbb 1_{C_\text{Bayes} }(X))$$
    6i: Reconnaître le risque.

    $$={\Bbb P}(Y\ne g(X))={\Bbb E}[\Bbb 1_{Y\ne g(X)}]={\Bbb E}[\rho(Y,g(X))]=R(g)$$

    $$={\Bbb E}[p_0(X)\Bbb 1_{p_0(X)\leqslant p_1(X)}+p_1(X)\Bbb 1_{p_0(X)\gt p_1(X)}]$$

    START
    Ω Basique (+inversé optionnel)
    Recto: Donner la formule pour \({\Bbb E}[X\land Y]\).
    Verso: $$={\Bbb E}[X\Bbb 1_{X\leqslant Y}+Y\Bbb 1_{Y\lt X}]$$
    Bonus: Y
    Carte inversée ?:
    END